其他
【源头活水】谷歌和CMU论文:使用元学习生成伪标签
“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注。
01
有监督训练以及半监督训练的一个核心问题,就是如何设计和使用合适的目标分布,现有的方法主要包括下面几种:
温度调节(Temperature Tuning)
02
图1. MPL的思想。通过验证集的损失,来防止训练模型陷入比较坏的局部最小值(bad local minimum,图中蓝色的点)
03
Student 更新
Teacher 更新
在更新Teacher模型的过程中, 会产生梯度的梯度,这个过程和meta-learning非常相似,也就是文章名字的来源。更具体的,优化过程可以写成下面的形式:
04
图3. 设计细节和更新过程,Teacher网络更新包括直接产生的分类损失和元学习产生的损失两部分。
图4. ReducedMPL,简化的MPL更新过程
05
图5. CIFAR10和SVHN
06
本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。
“源头活水”历史文章
Deep GNN评测,模型退化是做不深的主要原因!
CVPR2021:Spatial在左,Temporal在右,如何缓解视频动作理解中的隐式偏见之殇?
CVPR2021自监督学习论文: 理解对比损失的性质以及温度系数的作用
GAN,没错,生成对抗网络也可以被用于时间序列预测
开放世界实体分割 Open-World Entity Segmentation
ICCV‘21 | 具有样本特定触发器的隐形后门攻击
ACL2021: 对比学习还能这样用?提升多语言机器翻译性能
CVPR 2021 | AdCo-基于对抗的对比学习(已开源)
最前沿:深度解读Soft Actor-Critic 算法
RL Transformer之Trajectory Transformers
差分卷积在计算机视觉中的应用
ICML2021 | Self-Tuning: 如何减少对标记数据的需求?
MaskFormer: 语义分割是像素分类问题吗?
原型学习在Few-Shot语义分割中的使用
更多源头活水专栏文章,
请点击文章底部“阅读原文”查看
分享、在看,给个三连击呗!